升级成功!你现在是一名人工智能侦探了!不太对哦!再仔细检查一下线索吧。信任度已更新……是……吗??……还是……?
如果一个人工智能模型训练所用的数据中缺少某些人群,那么这个人工智能会怎样?
正确!人工智能就像一面镜子。如果数据本身不公平或信息缺失,人工智能的决策也会带有偏见。
当人工智能编造出听起来真实但其实是假的事实时,这叫什么?
完全正确!这被称为幻觉——人工智能是根据词语模式“做梦”来生成答案的。
人工智能总是知道“真相”吗?
没错!人工智能寻找的是模式和概率,而这并不总等同于真相。
为什么一个用于筛选简历的人工智能可能会忽略来自不同背景的有才华的人?
正确!如果训练数据有限,人工智能会从数学上推断出“不同”就意味着“不符合资格”。
如果人工智能给你提供了一个用于学校项目的事实,你应该怎么做?
太棒了!一定要核实人工智能提供的信息,因为它有时会自信地“幻觉”出虚假细节。
目前人工智能只是偶然犯错,但将来人们是否能故意利用人工智能去欺骗他人?
是的!正如我们接下来将看到的,理解人工智能的错误,有助于我们应对一个充满故意欺骗的世界。
1
人工智能偏见与幻觉
进化课堂-AI004第10讲
0
🤖 哔哔!我是你的伦理向导。请选择一个谜题来破解:数据偏见,还是人工智能幻觉?
Py-机器人指令直播中
哔!你好,侦探!今天我们要学习的是,人工智能并不总是正确的。有时它会复制我们的错误,有时它只是凭空编造东西!
主题进度0%
把人工智能想象成一面镜子。如果我们只给它看猫的照片,它可能会认为狗根本不存在!如果我们的数据中带有旧有的偏见,人工智能就会重复这些偏见。比如一个招聘机器人,只挑选某一种类型的人,因为过去它只见过这种人。这被称为“算法偏见”。
1
子主题1
镜子(偏见)
人工智能反映我们给予它的数据——甚至包括那些不公平的部分。
与你不同,人工智能讨厌说“我不知道”。它像一场巨型“填字游戏”一样预测下一个词。有时它会产生“幻觉”,编造出听起来真实但完全是假的事实!它只是在遵循某种模式,而不是在验证真相。
2
子主题2
梦者(幻觉)
当人工智能表现得极其自信,但其实完全错误时。
世界上最聪明的人工智能也会犯错。请务必用可信来源再次核对你的事实!
你知道吗?
世界上最聪明的人工智能也会犯错。请务必用可信来源再次核对你的事实!
加载中……
⭐⭐⭐

任务完成!

你已成为一名人工智能侦探!